AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLM
虾马之后又火一个!OpenHuman用20分钟了解你的一切,存成卡帕西式知识库

虾马之后又火一个!OpenHuman用20分钟了解你的一切,存成卡帕西式知识库

虾马之后又火一个!OpenHuman用20分钟了解你的一切,存成卡帕西式知识库

虾在前,马当道,居然还有新物种能在Agent赛道突出重围。OpenHuman连续霸榜GitHub Trending第一,狂揽9k+ Star,一天就涨千星。和虾马不一样,Human不用你花心思养,还能反过来主动了解你。

来自主题: AI资讯
8630 点击    2026-05-17 11:33
从图像到视频的任意分割:X2SAM让MLLM 真正看懂像素级时空世界

从图像到视频的任意分割:X2SAM让MLLM 真正看懂像素级时空世界

从图像到视频的任意分割:X2SAM让MLLM 真正看懂像素级时空世界

为了解决这一问题,来自中山大学和美团的研究团队提出了 X2SAM,一个统一的图像与视频分割多模态大模型框架。它希望让模型不仅能「看懂」图像和视频,还能进一步「指出」目标在每个像素上的准确位置。

来自主题: AI技术研报
7471 点击    2026-05-16 10:50
ICML 2026 Spotlight| 拒绝盲目猜token,阿里x浙大将投机解码带入弹性预算时代

ICML 2026 Spotlight| 拒绝盲目猜token,阿里x浙大将投机解码带入弹性预算时代

ICML 2026 Spotlight| 拒绝盲目猜token,阿里x浙大将投机解码带入弹性预算时代

随着大模型参数规模持续扩大,推理成本已经成为生产级 LLM 服务的核心瓶颈。投机解码(Speculative Decoding, SD)通过「小模型 draft + 大模型 verify」的方式,将多个候选 token 放到一次目标模型前向中并行验证,从而缓解自回归解码的串行瓶颈。

来自主题: AI技术研报
7945 点击    2026-05-13 15:01
ICML 2026 | 大模型内部也会长出「情绪树」,规模越大越懂人心

ICML 2026 | 大模型内部也会长出「情绪树」,规模越大越懂人心

ICML 2026 | 大模型内部也会长出「情绪树」,规模越大越懂人心

随着语音、视频、多模态能力不断融入大语言模型(LLM),人与 AI 的交互正在越来越接近自然对话。今天的 LLM 不再只是回答问题的工具,也越来越多地出现在教育、客服、陪伴、心理健康等高度依赖情绪理解的场景中。

来自主题: AI技术研报
6083 点击    2026-05-12 14:31
动手搭建 AI 硬件设计平台!本地 LLM 一句话生成完整 Arduino 项目(接线图 + BOM + 代码 + 步骤)

动手搭建 AI 硬件设计平台!本地 LLM 一句话生成完整 Arduino 项目(接线图 + BOM + 代码 + 步骤)

动手搭建 AI 硬件设计平台!本地 LLM 一句话生成完整 Arduino 项目(接线图 + BOM + 代码 + 步骤)

大家好,最近有人刚刚为电子产品开发了一个 Claude Code 工具。 它叫做 Blueprint。输入你想要构建的内容,它就会为你的 Arduino 或树莓派项目生成接线图、物料清单和分步组装指南。能不能自己搭建一个呢?

来自主题: AI资讯
8520 点击    2026-05-10 12:50
Anthropic最新论文撬开大模型黑箱:隐藏动机发现率提升 4 倍以上

Anthropic最新论文撬开大模型黑箱:隐藏动机发现率提升 4 倍以上

Anthropic最新论文撬开大模型黑箱:隐藏动机发现率提升 4 倍以上

刚刚,Anthropic 发布论文《Natural Language Autoencoders Produce Unsupervised Explanations of LLM Activations》,试图用一套 自然语言自动编码器(Natural Language Autoencoders,下文简称 NLA), 撬开这个黑箱。

来自主题: AI技术研报
8742 点击    2026-05-08 14:33
号称1200万token上下文的模型来了,数据亮眼但疑点重重

号称1200万token上下文的模型来了,数据亮眼但疑点重重

号称1200万token上下文的模型来了,数据亮眼但疑点重重

当地时间 5 月 5 日,迈阿密一家名为 Subquadratic 的公司走出隐身模式。CTO Alexander Whedon 在 X 上把首款模型 SubQ 称作“a major breakthrough in LLM intelligence”(LLM 智能领域的重大突破),

来自主题: AI资讯
7023 点击    2026-05-07 12:02
深扒GPT Image 2:疑似“吞”下了GPT-4o,OpenAI没把它当“生图”模型训练

深扒GPT Image 2:疑似“吞”下了GPT-4o,OpenAI没把它当“生图”模型训练

深扒GPT Image 2:疑似“吞”下了GPT-4o,OpenAI没把它当“生图”模型训练

GPT Image 2 凭什么这么强?是扩散模型又迭代了一版?是把 DiT 的参数量从 7B 扩到 20B?是训了更多高质量数据?先给结论:OpenAI 很可能已经不在“纯扩散模型”这条主赛道上了。他们已经把图像生成从“美术课”调到了“语文课”——用一个能读懂指令、能记住上下文、能理解物体关系的 LLM 主导语义规划,至于最后一步的像素生成,可能由扩散组件或其他解码器完成。

来自主题: AI技术研报
7546 点击    2026-05-03 22:58
LLM 仅靠自身就能增强推理?SePT 给出简洁在线自训练范式

LLM 仅靠自身就能增强推理?SePT 给出简洁在线自训练范式

LLM 仅靠自身就能增强推理?SePT 给出简洁在线自训练范式

在推理后训练里,多数方法仍依赖奖励模型、验证器或额外教师信号。如果不依赖这些外部信号,只使用模型自身生成的答案进行自训练,是否仍然能够提升推理能力?是的!SePT(Self-evolving Post-Training)给出肯定答案,简洁的自训练方法,可在数学推理任务准确率直升10个点!

来自主题: AI技术研报
5805 点击    2026-04-23 14:05